草庐IT

Spring ThreadPoolTask​​Scheduler vs ThreadPoolTask​​Executor

全部标签

java - Spring ThreadPoolTask​​Executor 中的 corePoolSize 和 maxPoolSize 有什么区别

我必须向网站的所有用户发送大量电子邮件。我想为每封发送的电子邮件使用一个线程池。目前我已将值设置为:两者之间有什么区别,是否会扩展。目前我有大约。10000个用户。 最佳答案 以下是Sun的线程创建规则,简单来说:如果线程数小于corePoolSize,则创建一个新线程来运行一个新任务。如果线程数等于(或大于)corePoolSize,则将任务放入队列。如果队列已满,并且线程数小于maxPoolSize,则创建一个新线程来运行任务。如果队列已满,且线程数大于等于maxPoolSize,则拒绝该任务。FullarticleOrigin

java - Spring ThreadPoolTask​​Executor 中的 corePoolSize 和 maxPoolSize 有什么区别

我必须向网站的所有用户发送大量电子邮件。我想为每封发送的电子邮件使用一个线程池。目前我已将值设置为:两者之间有什么区别,是否会扩展。目前我有大约。10000个用户。 最佳答案 以下是Sun的线程创建规则,简单来说:如果线程数小于corePoolSize,则创建一个新线程来运行一个新任务。如果线程数等于(或大于)corePoolSize,则将任务放入队列。如果队列已满,并且线程数小于maxPoolSize,则创建一个新线程来运行任务。如果队列已满,且线程数大于等于maxPoolSize,则拒绝该任务。FullarticleOrigin

mysql - Apache spark如何计算分区以及分区在executor中是如何处理的

我需要一些帮助来理解Spark如何决定分区的数量以及它们在执行程序中是如何处理的,我很抱歉这个问题,因为我知道这是一个重复的问题,但即使在阅读了很多文章之后我仍然不是能够理解我正在放置一个我目前正在处理的现实生活中的用例,以及我的spark提交配置和集群配置。我的硬件配置:3节点机器,总Vcor​​es=30,总内存=320GB。spark-submitconfig:spark-submit\--verbose\--masteryarn\--deploy-modecluster\--num-executors1\--executor-memory3g\--executor-cores2

hadoop - YARN-Cgroups : Failed to initialize container executor in non-secure cluster

我正在尝试在非安全模式下将cgroups与YARN2.6.0结合使用。有用如果我使用DefaultContainerExecutor就好了。但是,当我尝试使用LinuxContainerExecutor时出现错误。现在,当我执行-->$yarnnodemanager时,它失败了ExitCodeExceptionexitCode=24:File/home/hduser2/hadoop/hadoop-2.6.0/etc/hadoopmustbeownedbyroot,butisownedby1001atorg.apache.hadoop.util.Shell.runCommand(Shel

scala - 我可以在 Apache Spark 中捕获诸如 on Executor start 之类的事件吗?

我想做的是让执行器在启动时(即在开始执行任何任务之前)启动一个程序,例如分析工具。通过这种方式,可以监视诸如执行程序的CPU使用率之类的事情。Spark是否提供这样的钩子(Hook)/回调?我用过SparkListener,但那是驱动端用的。我们对执行者有类似的东西吗? 最佳答案 这应该可以满足您的要求。http://spark.apache.org/developer-tools.html#profiling设置yourkit以与驱动程序和从属程序(执行程序)一起工作。除非您告诉它,否则它不会开始分析。连接到master或slav

hadoop - 为什么 Apache Spark worker executor 以退出状态 1 被杀死?

apachespark独立设置中的所有工作人员都显示以下消息。worker:执行者app-20150902151146-0001/6已完成,状态为KILLEDexitStatus1收到此消息的原因是什么。 最佳答案 根据您提供的少量信息,我们只能笼统地回答这个问题。所以我的回答是从SeanOwen的answer得到的启发。关于worker和执行者之间的关系,也来自ResourceManagementwithYARN上的Cloudera博客以及关于Clustermodeoverview的官方文档.那么让我们开始定义ApacheSpar

scala - Spark : Executor Lost Failure (After adding groupBy job)

我正在尝试在Yarn客户端上运行Spark作业。我有两个节点,每个节点都有以下配置。我收到“ExecutorLostFailure(执行程序1丢失)”。我已经尝试了大部分Spark调优配置。我已经减少到一个执行器丢失,因为最初我遇到了6个执行器故障。这些是我的配置(我的spark-submit):HADOOP_USER_NAME=hdfsspark-submit--classgenkvs.CreateFieldMappings--masteryarn-client--driver-memory11g--executor-memory11G--total-executor-cores16

hadoop - 在 EC2 : spark. driver.extraClassPath 和 spark.executor.extraClassPath 上设置 spark 类路径

通过为maven依赖项提供spark-classPath来减少应用程序jar的大小:我的集群有3个运行hadoop和spark的ec2实例。如果我使用maven依赖项构建jar,它会变得太大(大约100MB),我想避免这种情况,因为Jar正在所有节点上进行复制,每次我运行作业。为了避免我构建了一个maven包作为“maven包”。为了解决依赖关系,我已经在每个节点上下载了所有maven依赖关系,然后只在jar路径下方提供:我在“spark-defaults.conf”中的每个节点上添加了类路径作为spark.driver.extraClassPath/home/spark/.m2/re

multithreading - 使用 spark-submit,--total-executor-cores 选项的行为是什么?

我在用python封装的C++代码上运行一个spark集群。我目前正在测试多线程选项的不同配置(在Python级别或Spark级别)。我在HDFS2.5.4集群上将spark与独立二进制文件一起使用。该集群目前由10个从站组成,每个从站有4个核心。据我所知,默认情况下,Spark每个节点启动4个从节点(我有4个python一次在一个从节点上工作)。我怎样才能限制这个数字?我可以看到我有一个用于“spark-submit”的--total-executor-cores选项,但是关于它如何影响执行程序在集群上的分布的文档很少!我将运行测试以获得一个清晰的想法,但如果有知识的人知道这个选项的

java - Executor 和 PriorityBlockingQueue 上的 ASyncTask

我正在尝试让一些ASyncTask以优先级同时运行。我创建了一个带有PriorityBlockingQueue的ThreadPoolExecutor,propper比较器非常适合标准Runnable。但是调用的时候newTask().executeOnExecutor(threadPool,(Void[])null);PriorityBlockingQueue的比较器接收ASyncTask(在源代码中称为mFuture)内部的Runnable(私有(private)),因此在比较器中我无法识别runnable或读取“优先级”值。我该如何解决?谢谢 最佳答案